Innovación y Startups

18 países firman acuerdo que prioriza la seguridad en el desarrollo e implementación de la Inteligencia Artificial

Respecto al desarrollo de numerosos proyectos asociados a la Inteligencia Artificial, la directora de la Agencia de Ciberseguridad e Infraestructura de Estados Unidos, Jen Easterly, dijo que "lo más importante que debe hacerse en la fase de diseño es la seguridad".

Por: Reuters, traducida por Marco Zecchetto | Publicado: Martes 28 de noviembre de 2023 a las 10:11 hrs.
  • T+
  • T-

Compartir

Los Estados Unidos, Gran Bretaña y más de una docena de otros países revelaron el domingo lo que un funcionario estadounidense de alto rango describió como el primer acuerdo internacional detallado sobre cómo mantener segura la inteligencia artificial ante actores no autorizados, instando a las empresas a crear sistemas de IA que sean 'seguros por diseño'.

En un documento de 20 páginas revelado el domingo, los 18 países acordaron que las empresas que diseñan y utilizan la IA deben desarrollarla e implementarla de manera que mantenga a los clientes y al público en general a salvo de un mal uso.

El acuerdo no es vinculante y contiene principalmente recomendaciones generales, como monitorear los sistemas de IA para evitar abusos, proteger los datos contra manipulaciones y verificar los proveedores de software.

Sin embargo, la directora de la Agencia de Ciberseguridad e Infraestructura de Estados Unidos, Jen Easterly, afirmó que era importante que tantos países respaldaran la idea de que los sistemas de IA debían priorizar la seguridad.

"Esta es la primera vez que vemos una afirmación de que estas capacidades no deberían ser solo sobre características llamativas y cuán rápidamente podemos llevarlas al mercado o cómo podemos competir para reducir los costos", dijo Easterly a Reuters, y agregó que las pautas representan "un acuerdo en que lo más importante que debe hacerse en la fase de diseño es la seguridad".

Los detalles del acuerdo internacional

El acuerdo es el más reciente de una serie de iniciativas de gobiernos de todo el mundo para dar forma al desarrollo de la IA, cuyo peso se siente cada vez más en la industria y la sociedad en general.

Además de Estados Unidos y Gran Bretaña, los 18 países que firmaron las nuevas pautas incluyen a Alemania, Italia, la República Checa, Estonia, Polonia, Australia, Chile, Israel, Nigeria y Singapur.

El marco aborda preguntas sobre cómo evitar que la tecnología de IA sea secuestrada por piratas informáticos e incluye recomendaciones, como lanzar modelos solo después de pruebas de seguridad apropiadas.

No aborda preguntas espinosas sobre los usos apropiados de la IA o cómo se recopilan los datos que alimentan estos modelos.

El surgimiento de la IA ha generado una serie de preocupaciones, incluido el temor de que pueda ser utilizada para interrumpir el proceso democrático, impulsar el fraude o provocar una dramática pérdida de empleos, entre otros daños.

Europa está a la vanguardia de los Estados Unidos en regulaciones en torno a la IA, con legisladores allí redactando normas de IA. Francia, Alemania e Italia también llegaron recientemente a un acuerdo sobre cómo se debe regular la inteligencia artificial que respalda la 'autoregulación obligatoria a través de códigos de conducta' para los llamados modelos fundamentales de IA, diseñados para producir una amplia gama de resultados.

La administración de Biden ha estado presionando a los legisladores para regular la IA, pero un Congreso estadounidense polarizado ha avanzado poco en aprobar una regulación efectiva.

La Casa Blanca buscó reducir los riesgos de la IA para los consumidores, los trabajadores y los grupos minoritarios, al tiempo que fortalecía la seguridad nacional con una nueva orden ejecutiva en octubre.

Lo más leído